时政
财经
科技
虚拟货币
其他
登录
#Prompt Engineering
关注
lidang 立党 (全网劝人卖房、劝人学CS、劝人买SP500和NASDAQ100第一人)
4周前
我认为,这个时代的AI-native generation(AI原住民)应该做到以下几点: 1. 日常模模糊糊地关注各家厂商的LLM model,像旧时代关注手机和汽车评测的人们一样,看看发布会,看看benchmark,第一时间迫不及待地上手用一用; 2. 脑海中模模糊糊有信息论的观念,知道LLM不是算卦,不会指望万事万物让LLM 给一个标准答案,而是对prompt engineering有个轮廓的概念,知道充分给足什么条件和规则,才能让LLM输出一个可靠的答案; 3. 相信Agentic的方法,相信AI Agent,不迷信LLM本身能力,知道LLM一口气给一个结果一定会犯错,就像一个人用口算回答一个10位乘以10位的问题一样,知道LLM有幻觉,知道LLM如何用agentic的方法去调用外部工具,一步步解决问题; 4. 日常关注AI community,包括新产品、新模型、新的问题,看见以后愿意尝试用一用,或者试着思考一下这个东西是怎么做出来的; 5. 熟练使用SWE Agent(比如codex、openhands、claude code)和vibe coding工具(cursor、github copilot),模模糊糊知道工具和能力上限的轮廓,知道这些工具的作用是什么, 同时也知道作为人类如何驾驶这类工具时必须具备的品质和能力,不迷信“AI能代替程序员”,而相信“熟练vibe coding是人的技能之一”; 6. 对日常问题的搜索和学习,习惯用perplexity或者 快速提问,反复追问,而不仅仅是google,也等不及chatgpt慢悠悠的响应,明白AI时代最快、最顺手的搜索总结方法是什么; 7. 对于一个成体系的传统领域问题(比如EDA设计、传统建筑行业BIM、传统商业分析领域),模模糊糊知道如何搭建一个Agent或者workflow去自动化解决,或者提出一些新的方法,把传统问题转化成structured data,或者用AI Agent通过写程序和调用部分API来逐步解决,或者使用一些long term memory框架合理indexing, 并且看到某些中老年高管一提及“用AI解决问题”,就盲目把几千页文档和数据一股脑喂进vector database然后进行高成本query的行为,感到生理性不适。
#AI原住民
#LLM
#信息论
#Prompt Engineering
分享
评论 0
0
Randy Lu
2个月前
看 YC 讲 prompt engineering 的分享,其中一个女生长得跟我前女友一模一样,吓我一大跳。
#YC
#Prompt Engineering
#分享会
#前女友
#相似
分享
评论 0
0
Viking
2个月前
今天尝试用 Claude4 创建一些 Infographic(就是很流行的信息图表) 没有任何的微调,一个 prompt 直出,prompt 风格也是让大模型提供,我没有任何调整,发现真的很强,尽管有少许错位,但是想象力和风格都让我很满意和惊喜。 我尤其喜欢第二张的赛博朋克风,里面还有函数名称啥的,很前卫。第三张的复古风都很棒。 我还在想 prompt engineering 还存在吗?现在大模型能一下生成各种完美的提示词了。
#Claude4
#Infographic
#信息图表
#大模型
#Prompt
#赛博朋克
#复古风
#Prompt Engineering
分享
评论 0
0
马东锡 NLP 🇸🇪
4个月前
「LLM, Agent, RL的关系」 在LLM的语境下,Agent是能理解问题,自主进行推理(Reasoning),并采取行动的系统。你可以把它想象成一个非常聪明的助手,当你提出复杂问题时,它不会立即给出答案,而是会在内心进行推理和规划(Planning),再给出最终决定。 如果我们回顾prompt engineering中提高LLM Reasoning能力的方法,如Self-Consistency、Tree of Thoughts 和 ReAct,本质上都体现了强化学习(RL)中常见的规划思想: Tree of Thoughts:如同下棋时,你脑海中会形成一个思考树,一步步推演未来可能的局面,从而找到最优解。这与RL中的树搜索(Tree Search)方法完全对应,体现了明显的模型化规划(Model-based Planning)特征。 ReAct(Reasoning+Acting,推理加行动):类似于你边思考边行动,不断尝试,再根据反馈调整下一步的计划。这种推理与行动的交替模式与RL中Agent持续地感知状态(Observing)、制定策略(Policy)、采取行动(Acting)并从环境中获得反馈(Feedback)非常类似。 为什么增强LLM的Reasoning通常要使用RL方法? 尽管LLM本身已经具备强大的知识和生成能力,但它们本质上是基于“下一个词预测”的机制(Next-Word Prediction),缺乏深度的Planning能力和对未来结果的有效预测。这就像一个聪明但缺乏系统训练的人,虽然懂得很多知识,但在面对复杂决策时容易陷入短视和错误。 RL方法的加入,就像给LLM提供了一种“内心世界模型”(Internal World Model),帮助模型进行更好的内部规划: RL能帮助LLM学会评估和预测不同推理路径的可能结果,从而选择更优的路径,恰如DeepSeek R1, Kimi, o1的方法。 立一个FLAG, 把这些RL方法一个个用人话讲明白。
#LLM
#agent
#RL
#reasoning
#planning
#Prompt Engineering
#AI助手
#自主推理
分享
评论 0
0
向阳乔木
4个月前
跟好朋友一起研发的课程终于快要上线了。 一个教育平台,利用AI机器人,带大家一起学Prompt Engineering技术。 这套课除了学方法,其实更想强调的是 AI First思维,从实践中学,提升逻辑思维,提升审美能力、提升「AI领导力」。 把第一小节内容发给AI,提炼生成的几张海报:
#课程上线
#AI机器人
#Prompt Engineering
#AI First思维
#逻辑思维
#审美能力
#AI领导力
分享
评论 0
0
RichChat
5个月前
来自Google prompt engineering比赛冠军的经验总结 最近Google举办的提示词工程比赛中,瑞典选手Joakim Jardenberg在300多名选手中脱颖而出。 总结一下他提到的经验 - 首先是学习方法论,Jardenberg采用了一个简单但有效的迭代方法: 1. 将AI应用到所有可能的任务中; 2. 同时使用多个AI系统相互验证; 3. 保持开放和好奇心态,不预设边界; 4. 关注实际应用场景而非理论限制; 可以类比学习一门新语言 - 你需要不断练习,在不同场景下使用,并且和不同的母语者交流。通过与多个AI系统互动,我们逐渐掌握了与AI对话的"语感"。 他对prompt的具体建议也和我之前写过的建议很类似,核心观点是要把AI看作一个初级但有潜力的同事,而不是简单的软件工具。就像带新人一样 - 你需要给出清晰的指导,同时也要给他们思考和创新的空间。 一些关键点: - AI和人一样需要明确的上下文和及时的反馈; - 不要过度约束,给AI发挥空间; - 用自然语言交流,避免过于形式化的提示词模板; - 持续跟踪AI能力的演进,及时调整交互策略; 从实践角度看,这些建议本质上是在建立一个良好的合作关系。就像和新同事建立信任一样,了解对方的特点和能力,才能更好地协作。
#Google比赛
#Prompt Engineering
#提示词工程
#Joakim Jardenberg
#AI迭代方法
分享
评论 0
0
Matt Shumer
7个月前
One of the most powerful prompts to get Claude 3.5 Sonnet unstuck from a loop: "This isn't working. First, think for ten paragraphs about what's going on here + the best way to do this, and then implement the code."
#Claude 3.5
#AI Language Model
#sonnet
#Prompt Engineering
#Loop Resolution
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞